Allarme "Nudify": l'intelligenza artificiale alimenta le app che "spogliano" qualsiasi foto

Cosa succede quando una tecnologia diventa un'arma di molestie e violenza digitale? Cosa succede se i pilastri di internet – Amazon, Google o Cloudflare – non solo non riescono a prevenirla, ma la facilitano indirettamente?
Negli ultimi due anni, siti web e app che permettono di creare immagini di nudo finte a partire da foto reali, senza il consenso delle persone ritratte, sono proliferati . La promessa di app che fungono da "raggi X" non è una novità, ma ha visto una rinascita grazie all'intelligenza artificiale.
Nuove ricerche hanno fatto luce sulla portata, sul modello di business e sugli attori che rendono possibile questo settore nascosto. Ciò che è più allarmante non è solo l'esistenza di queste piattaforme , ma anche la loro sofisticatezza aziendale e la dipendenza dall'infrastruttura tecnologica che utilizziamo quotidianamente.
Il losco business dei nudisti: dai giochi marginali a un'industria multimilionariaL'industria del "nudify" non è nata dal nulla. Da quando i primi deepfake espliciti hanno iniziato a circolare nel 2017 , la tecnologia si è perfezionata e democratizzata. Oggi, una foto caricata su uno di questi siti è sufficiente per creare un'immagine sessuale falsa in pochi clic. Quella che era nata come una inquietante curiosità tecnica si è trasformata in un'industria di contenuti sessuali non consensuali che genera decine di milioni di dollari all'anno.
Secondo l'analisi di Indicator , 18 di questi siti hanno guadagnato tra i 2,6 e i 18,4 milioni di dollari solo negli ultimi sei mesi. Lo fanno vendendo abbonamenti o crediti, come qualsiasi altra piattaforma di intrattenimento digitale. Molti imitano il modello di business di OnlyFans o Twitch, con programmi di affiliazione, video promozionali e persino accordi con attrici porno.
Ma il suo impatto sociale è tutt'altro che banale. La maggior parte delle vittime sono donne, spesso adolescenti, che non hanno mai dato il permesso alla manipolazione delle loro foto. Una volta create, le immagini circolano sui social media, sui forum, sui canali Telegram e su altre piattaforme difficili da tracciare. Il danno emotivo e reputazionale è incalcolabile.
Il ruolo chiave di Google, Amazon e Cloudflare nel mantenere vivo l'ecosistemaUno degli aspetti più sorprendenti della ricerca non riguarda solo il volume di visite o il denaro generato, ma anche l'infrastruttura tecnologica che supporta il sistema . Degli 85 siti analizzati:
- 62 utilizzano Amazon Web Services o Cloudflare per l'hosting e la distribuzione dei contenuti.
- 54 utilizzano il sistema di accesso di Google.
- Molti hanno metodi di pagamento integrati che si basano su gateway commerciali legittimi.
Il problema non è solo l'utilizzo di queste grandi piattaforme, ma il loro utilizzo ripetuto e massiccio, senza un'efficace supervisione o risposte sistematiche per smantellare questi spazi. Secondo Alexios Mantzarlis, co-fondatore di Indicator , "la Silicon Valley ha adottato un approccio laissez-faire all'IA generativa", che ha offerto a queste aziende tossiche un'ancora di salvezza.
Google e Amazon hanno dichiarato di intervenire quando rilevano violazioni delle loro policy, ma in realtà il loro sistema di monitoraggio è carente. In molti casi, i creatori di questi siti web utilizzano siti intermediari per camuffare le loro vere intenzioni, eludendo così i controlli automatici.
Vittime invisibili: quando l'immagine diventa un'armaL'ascesa di queste piattaforme ha portato con sé una nuova forma di molestie e violenza sessuale digitale . Le vittime raramente sanno che le loro immagini sono state manipolate. Quando lo scoprono, il danno è già stato fatto. E rimuovere tali contenuti dall'ecosistema digitale è quasi impossibile.
Tra i casi più allarmanti ci sono quelli che coinvolgono gli adolescenti. In diversi paesi, ragazzi hanno utilizzato foto dei loro compagni di classe per creare deepfake, che vengono poi diffusi nei gruppi WhatsApp o sui social media. Questa forma di cyberbullismo non lascia tracce fisiche, ma lascia ferite profonde.
Il problema è aggravato dall'assenza di leggi chiare o dalla loro lenta attuazione . Sebbene diversi paesi stiano iniziando a criminalizzare la creazione e la diffusione di immagini sessuali false, il quadro giuridico non è ancora al passo con la tecnologia. Le piattaforme, da parte loro, affermano di essere solo fornitori di infrastrutture, non di contenuti.
Tra pornografia e frode digitale: una zona grigia in crescitaL'economia dei nudisti sta diventando più sofisticata. Alcuni siti offrono persino "servizi premium" di qualità superiore . Altri pubblicizzano su piattaforme di video per adulti o utilizzano tecniche di marketing di affiliazione. Stanno iniziando a mimetizzarsi nell'industria del porno legale, cercando legittimità o almeno anonimato nel caos dei contenuti per adulti online.
Questo fenomeno rappresenta un'area grigia digitale , dove l'abuso sessuale si fonde con i modelli di business dell'e-commerce. Inoltre, lo fanno attraverso canali apparentemente legittimi: gateway di pagamento, sistemi di fidelizzazione, traffico SEO, video sponsorizzati.
Per gli esperti, la chiave è bloccare l'accesso alle risorse che rendono queste piattaforme vitali. Se le grandi aziende tecnologiche bloccassero i servizi cloud, i sistemi di registrazione o l'hosting, molti di questi siti collasserebbero. L'obiettivo non è sradicarli – cosa impossibile – ma rendere la loro vita così difficile da fargli perdere visibilità, utenti e fatturato.
Sebbene il problema covasse da anni, alcune azioni recenti indicano un cambio di prospettiva . Meta ha fatto causa a un'azienda responsabile di un nudista che pubblicizzava sulla sua piattaforma . Microsoft ha rintracciato gli sviluppatori di deepfake di celebrità. E l'amministrazione statunitense ha approvato il controverso "Take It Down Act", che impone alle aziende tecnologiche di agire rapidamente in caso di segnalazioni di contenuti sessuali non consensuali.
Nel Regno Unito, la creazione di deepfake a sfondo sessuale è già stata criminalizzata. E alcune città, come San Francisco, hanno intentato cause legali contro le aziende che commercializzano questi strumenti. Tuttavia, le misure rimangono parziali e reattive. Manca una strategia comune, completa e risolutiva.
Il rischio, secondo gli analisti, è che queste piattaforme cerchino rifugio in spazi digitali ancora meno regolamentati , come il dark web o i social network chiusi. Ma anche in quegli ambienti, il loro impatto sarà minore se perderanno il supporto logistico e commerciale che attualmente ricevono dalle grandi aziende tecnologiche.
eleconomista